OpenAI o3-mini
https://openai.com/index/openai-o3-mini/
2025/02/01から全ユーザーに解放
plusは150回/day
https://gyazo.com/f9f3b51b5377e4ee804e989403dd6ae4
o3-mini
o3-mini-high
o3-mini-medium
o3-mini-low
小猫遊りょう(たかにゃし・りょう)(@jaguring1)
ついに、OpenAIが科学、数学、コーディングに特に強い、高速な推論モデル「o3-mini」を利用できるようにした
(画像1枚目)競技数学「AIME 2024」でのスコア
(画像2枚目)大学院レベルの物理学・化学・生物学を対象としたベンチマーク「GPQA Diamond」でのスコア
https://gyazo.com/6a4572d7f35ae027e0cfdf0603fb070d https://gyazo.com/db5a9bbd653dd15b506119cb77fb3258
> OpenAI(@OpenAI)
> OpenAI o3-mini is now available in ChatGPT and the API.
>
> Pro users will have unlimited access to o3-mini and Plus & Team users will have triple the rate limits (vs o1-mini).
>
> Free users can try o3-mini in ChatGPT by selecting the Reason button under the message composer.
https://x.com/flavioAd/status/1885449107436679394コーディングはマジで強い
https://x.com/Suzacque/status/1885575145584288225一方で視野の広さ、という点では割と劣るので蒸留モデルの可能性が高そうではある。
情報量という単語から質量なども入るのか?といった視点は同様の質問をするとGemini 2.0 Flash Thinkingなどは指摘する。
DeepSeek-R1はより科学者チックというか、木製の観測データや地場などを情報量として考えた場合の回答をしてきた。(現在の累積デジタルデータは東京が多いが観測能力が上がれば木製のデータ量が増えるかも、といった回答)
無料ユーザーにも開放される枠は憶測レベルで20B以下じゃないかなぁとは思う(かつてのgpt-3.5-turboのパラメータ数は20Bがあるので。)
予想が正しければ将来的にはローカルLLMで再現されることがあるかもしれない(R1と違ってブラックボックスなので再現に時間がかかるかもしれないが…)morisoba65536.icon